#Google CEO
Google CEO:Google的AI戰略遠見和定力
“我們不是在追趕風口,而是在建造風。”——桑德爾·皮查伊(Sundar Pichai),2024年12月回望2022年底,ChatGPT驚豔四座,而Google緊接著的新品發佈會卻錯誤頻出。具有諷刺意味的是,ChatGPT的核心技術——Transformer架構,正是Google在2017年的研究成果。作為技術先驅,AI的第一波紅利卻被OpenAI端走。外界質疑Google已患上“大企業病”,甚至有投資人公開喊話:“皮查伊該下台了。”但很少有人看到,風暴中的皮查伊沒有慌亂辯解,而是悄悄拿起了一把手術刀——對內動刀,對外沉默。這是一場以“減法”為核心的組織革命。2024年,他將長期各自為戰的Google Brain與DeepMind正式合併,統一命名為DeepMind,並把面向消費者的Gemini App團隊也劃歸其下。研發與產品之間的高牆被推倒,曾經需要數月協調的模型迭代,如今兩周就能上線。與此同時,皮查伊砍掉了廣告、雲等核心業務中35%的中層管理崗。過去一個基層工程師要跨過三四層匯報才能推動一個小改動,現在可以直接對話業務負責人。決策鏈變短了,創新的速度就快了。更令人驚嘆的是那項被稱為“花園休假”(Garden Leave)的人才策略:核心AI研究員若提出離職,可選擇領取一年全額薪資,條件是12個月內不得加入任何競爭對手。在AI人才爭奪白熱化的今天,用一年薪水換對手一年時間差——這筆帳,怎麼算都划算。正是這些“看不見的改革”,讓Google在沉默中完成了最關鍵的轉身。當Gemini 3和Nano Banana Pro橫空出世時,人們才恍然:那個曾被嘲笑“反應遲鈍”的Google,早已脫胎換骨。一、從“AI First”到“Everything AI”:一場靜默的重構2015年,皮查伊剛接任CEO不久,就向全公司發出一封郵件:“從今天起,Google將轉向AI優先(AI First)。”當時沒人意識到這句話的份量。直到多年後回看,才明白這不僅是口號,而是一場系統性革命。Google沒有像其他公司那樣,在現有產品上“加個AI按鈕”。它選擇從底層開始重寫自己:自研TPU晶片,第七代Ironwood專為大規模推理最佳化;合併Google Brain與DeepMind,終結“兩個大腦”的內耗;把搜尋、YouTube、Android、Chrome全部接入統一的Gemini架構;甚至量子計算實驗室也納入AI基礎設施藍圖。這不是迭代,是重生。皮查伊在最近一次訪談中說得直白:“我們圍繞AI重構一切——從物理基礎設施,到研究方向,再到產品體驗。這不是某個部門的任務,而是整個公司的存在方式。”這種“全端式押注”,讓Google在短期內看起來“慢”:Gemini 1.0發佈晚於GPT-4,圖像生成工具Nano Banana Pro直到2025年才亮相。但正是這份“慢”,換來了今天的“快”。當Gemini 3和Nano Banana Pro同時支援即時圖像生成、長上下文推理、音訊輸出與瀏覽器代理操作時,行業才猛然發現:Google早已不在同一個賽道上競爭。二、定力之源:哈薩比斯的AGI遠見很多人不解:為什麼Google不學OpenAI,先靠一個驚豔功能引爆市場?答案藏在哈薩比斯的人生裡。這位曾是國際象棋神童、神經科學博士、遊戲公司CEO的天才,在創辦DeepMind時就立下目標:“建構能像人類一樣思考、學習、創造的智能體。”他堅信:真正的智能必須是多模態的。 你不能指望一個只會聊天的AI去駕駛汽車、設計藥物或理解一幅畫背後的情感。所以,當別人在卷“上下文長度”或“數學分數”時,Google在默默打通視覺、語言、動作、推理的壁壘。Gemini從1.0開始就是原生多模態;Genie世界模型能通過視訊預測物理互動;AlphaFold破解蛋白質結構,AlphaProof挑戰數學猜想……這些看似分散的項目,實則共享同一套認知架構。短期看,是資源分散;長期看,是能力融合。正如皮查伊所說:“當你看到機器人用Gemini理解環境並做出決策,或Astra通過手機鏡頭即時回答問題,你就明白——這些不是孤立的產品,而是一個智能生態的不同切面。”三、未來12個月:AI將從“問答機”變成“辦事員”皮查伊最近透露了一個關鍵訊號:“現在的AI還只是問答機器人。未來12個月,它要成為真正的智能體(Agent)。”什麼意思?不再是你問一句,它答一句;而是你給一個目標:“幫我給老婆選個生日禮物,預算2000元,她喜歡復古風格”,AI會自己查品牌、比價格、看評價、下單,甚至寫賀卡。這背後需要三大能力突破:任務分解與規劃(Plan)跨工具呼叫(Act)安全可靠的執行(Verify)Google已在內部測試Project Mariner——一個能在Chrome瀏覽器中自主操作網頁的AI代理。它不是幻覺驅動的“嘴炮”,而是能真實點選、填寫、提交的“數字員工”。這才是AI影響勞動力市場的真正起點。四、量子計算:Google的“第二曲線”當別人還在爭論AI是否泡沫時,Google已把目光投向更遠的地方。“量子計算就像五年前的AI。”皮查伊說,“很少人懂,但進展迅猛。”Google量子實驗室的Sycamore處理器已在特定任務上實現“量子優越性”。下一步,是將量子計算與AI結合——比如用量子演算法加速分子模擬,為新藥研發提速百倍。這不是科幻。這是Google正在鋪的路。結語:慢,是因為看得太遠巴菲特為何在95歲高齡首次建倉Google?不是因為Gemini 3多酷,而是因為他看懂了:Google正在成為AI時代的“水電煤”提供商。有搜尋、YouTube、Android提供現金流;有TPU、資料中心、量子計算構築護城河;有DeepMind團隊死磕AGI終局;更有皮查伊用“減法管理”重塑組織韌性。這盤棋,Google下了十年。現在,終於到了收子的時候。真正的戰略,不是跑得最快,而是方向最準。在這個追逐熱點的時代,Google用“慢”證明了:偉大的公司,從不迎合浪潮,而是定義浪潮。(全球領導力)
如果只依賴AI ,資訊會變得不可靠|GoogleCEO 最新訪談實錄
11月20日,Google CEO Sundar Pichai在矽谷總部接受了BBC 的專訪。本次對話探討了基礎設施建設的驚人規模、市場泡沫的理性與非理性、AI Agent對人類工作的替代、以及能源氣候挑戰等主題。Sundar Pichai 強調,我們正處於每十年一次的技術代際躍遷中。為應對這一時刻,Google 將過去10 到20 年的基礎設施建設壓縮至短短幾年內完成,年度資本支出飆升至900 億美元以上。對於外界擔憂的“AI 泡沫”,他給出了辯證的判斷:雖然行業存在非理性的過度投資,但由於模型能力的進步是真實可見且被廣泛應用的,這種大規模投入在根本上是理性的,且Google 憑藉“全端式”的深度整合策略,比競爭對手擁有更強的抗風險能力。他預測,未來12 個月AI 將迎來關鍵進化:從當前的對話互動轉向能夠執行複雜任務的Agent體驗,甚至取代人類做出決策。 Sundar Pichai 指出,在技術瓶頸與社會責任方面,必須承認基於機率預測的LLM 模型存在先天性的「幻覺」缺陷,使用者不應盲目信任,因此多元化的資訊生態系統仍然至關重要。面對資料中心激增的能耗,他指出AI 的龐大能源需求正在倒逼核能聚變、地熱等新能源技術的投資加速。此外,Sundar Pichai 指出,量子計算目前的進展相當於5 年前的AI,未來將解鎖對自然界的深度模擬;而像AlphaFold 這樣的黑科技已經超越了圖靈測試的範疇。01. 兆投資規模與「理性」的泡沫首先,您如何形容矽谷當下正在發生的一切?無論從股市表現(Google 市值達3.5 兆美元,Nvidia 達5 兆美元)還是投入其中的巨額資金來看,這似乎都是一個非同尋常的時刻。您能否具體描述一下​​這種規模?例如你們投入了多少資本?此外,鑑於歷史上科技進步常伴隨著巨大的市場熱情,目前全世界都在關註一個顯而易見的問題:AI 熱潮是一個泡沫嗎?無論競爭對手出現什麼看似充滿泡沫的交易,Google 是否因為廣泛的投資而能免於泡沫破裂的影響?Sundar Pichai:這是一個非同尋常的時刻,即使以矽谷的標準來看也是如此。大約每十年我們就會經歷這樣的轉捩點。曾經是個人電腦,接著是90 年代末互聯網的到來,然後是移動裝置,再之後是我們所說的雲計算。而現在顯然是AI 的時代。這就是你在園區周圍以及整個地區所能感受到的那種興奮。(關於投資規模)衡量規模的一個方法是看我們投入了多少資本來建設人工智慧所需的基礎設施。四年前Google 每年的支出可能不到300 億美元,而今年這個數字將超過900 億美元。如果你把所有公司正在做的事情加在一起,我們有超過1 兆美元的投資用於建設這一時刻所需的基礎設施。我看待這個問題的角度是,在接下來的幾年裡,我們要完成過去10 到20 年才能完成的建設量。沒錯,就在這幾年內,這讓你能感受到規模擴張的速度。(關於是否是泡沫)這個問題可以從兩個角度來看。我觀察我們在模型能力方面取得的實際進展,這種進步肉眼可見且令人興奮。人們正在使用它,我們將它部署在產品中,消費者熱衷於使用它,企業用它來優化營運。你看到了真實的需求,而我們滿足這種需求的能力目前仍受到限制。鑑於這項技術的潛力,這種興奮是非常理性的。同樣真實的是,當我們經歷這些投資周期時,作為一個行業我們集體會有過度的時候。回看網路時代,顯然當時有大量的過度投資。但沒有人會質疑互聯網是否意義深遠,或者它是否產生了巨大的影響,因為它從根本上改變了我們作為一個社會進行數字化工作的方式。我預計AI 也會如此。所以這既是理性的,但在這樣的時刻也確實存在著非理性的因素。(關於Google的抗風險能力)包括我們在內,沒有一家公司能免疫。如果我們投資過度,就必須經歷那個階段來消化。但我們的定位更好。多年來我們在AI 方面採取了深度差異化的策略。我擔任CEO 後做的第一件事就是將公司轉向我所說的「AI 優先」策略。其中的一部分就是建構偉大AI 技術所需的所有環節。我們稱之為全端方法,你可以把它想像成一種面面俱到的策略,從底層的實體基礎設施,到推動技術進步所需的研究,再到將其部署在Search、YouTube 或Android 等產品和平台中。我們採取了那種深度整合的方法,因此能夠進行規模化投資,並使其在所有這些產品和業務中發揮作用。我認為我們處於更有利的位置,可以用長遠的眼光來應對這一時刻。02. AI Agent 的進化與職業的未來如果要總結你們為一般家庭使用者所打造的工具的終極力量,它能有多高效?某個時候AI Agent能取代您的工作嗎? CEO 的職位是安全的嗎?許多西方中產階級——包括律師、創意產業、會計和新聞業從業者——對AI 感到措手不及,他們擔心AI 的核心意義就是自動化人類任務。您認為那些工作是安全的?對於那些不知道該建議孩子如何度過這個AI 浪潮的父母,您有什麼具體的建議?Sundar Pichai:我認為現在的階段是你可以與AI 互動、提問、來回對話,並在許多話題上進行智慧交流。我認為未來12 個月的下一步演變是它們能夠為你執行更複雜的任務,那才是真正有趣的地方。 “我得去買點東西,給配偶買個生日禮物”,我可以讓這個聊天機器人去辦這件事嗎?這種我們稱之為「Agent 體驗」的東西正是我們都感到興奮的。從長遠來看這意味著在某些時刻它可以幫助你做決定。例如「我應該投資這支股票嗎?」或「醫生推薦了一種治療方案,我該如何權衡利弊?」這些都是真實且具體的用例。要解鎖這些能力還有工作要做,但這正是這趟旅程令人興奮的原因。(關於CEO職位是否安全)我想CEO 做的事也許是有朝一日AI 最容易做的事情之一!(關於自動化與失業)讓我這樣說吧。今天人們正忙於處理許多事情,處於超負荷狀態。歷史上我們總是經歷這種變化,例如洗碗機進入家庭。我記得小時候家裡有了第一台冰箱時,它徹底改變了我母親的生活。你可以把它看作是自動化了某件事,但它把她解放出來去做其他事情了。再以放射科醫生為例。人們進行的掃描數量逐年增長,每次掃描的圖像數量也在顯著增加。你如何幫助一位放射科醫生應對這種日益增長的需求?也許AI 工具可以在這方面提供幫助。我認為這或多或少就是你會看到的景象。(關於新機會與社會適應)兩點。首先我在多年前就說過,AI 是人類所從事的最深刻的技術。它具有帶來非凡利益的潛力,而我們將不得不應對社會的混亂。你強調的是它最終將創造新的機會。舉個例子,就像YouTube 所做的那樣,任何人都能創作內容。你可能是個高中生,幾年後或許能構思一部長篇電影並將其製作出來。這是非凡的,所以它將創造新的機會。它將進化並轉變某些工作,人們需要適應。確實會有一些領域衝擊到部分工作。作為一個社會我們需要進行這些對話。其中一部分是:當我們吸收這項技術時,如何負責任地發展它並給社會時間來適應?我認為這些都是非常重要且合理的問題。(給下一代的建議)基於我所看到的,我不會改變一貫的思維方式。我認為將會有廣泛的學科最終變得重要。我會鼓勵下一代擁抱技術,學會在所從事的領域背景下使用它。學會採用和適應AI 的人會做得更好。無論你想成為一名教師還是一名醫生,所有這些職業都會存在。但在這些職業中脫穎而出的,將是那些學會如何使用這些工具的人。03. 機率模型的先天缺陷與資訊生態的必要性所有關於AI 的希望、估值以及社會效益,都建立在一個核心假設之上,即技術是有效的。讓我對Gemini(你們的ChatGPT 競爭對手)提一個簡單的測試:它能一直精準嗎?它說真話嗎?我們已經看到了一些糟糕的例子,例如建議把膠水當作披薩配料。此外,鑑於Transformer 模型(ChatGPT 中的「T」)是在您的領導下發明的,您是否接受這樣一個觀點:由於這本質上是一個機率問題,所有這些巨額投資的最終結果可能是導致資訊變得不那麼可靠了?我們是否應該接受「不要盲目信任」這一現狀?Sundar Pichai:我們正在從科學的角度努力將其建立在現實世界資訊的基礎上。在某些領域,我們在Gemini 上所做的部分工作是引入Google 搜尋的力量,利用它作為工具來嘗試更準確地給出答案。但在某些時刻,這些AI 模型從根本上基於一種預測下一個內容的技術,它們容易出錯。(關於錯誤案例)我們為在提供盡可能精確資訊方面投入的工作量感到自豪。但目前最先進的AI 技術確實容易出現一些錯誤。這就是為什麼人們也使用Google 搜尋,我們還有其他更專注於提供精確資訊的產品。但如果你想創造性地寫點什麼,同樣的工具會很有幫助。你必須學會利用這些工具的長處,而不是盲目相信它們所說的一切。(關於資訊可靠性)如果你只建立獨立的系統而且只依賴那個系統,那確實會如此(指資訊不可靠)。這就是為什麼我認為資訊生態系統必須比僅僅擁有AI 技術作為唯一產品要豐富得多。真相很重要,新聞業很重要,我們今天擁有的所有周邊事物都很重要。如果你是學生,你會和老師交流;作為一個消費者,你去看醫生時想信任你的醫生。所有這些都很重要。04. 能源困境:AI 建設是否以犧牲氣候目標為代價?您剛剛描述的AI 建設規模正在創造另一個權衡,即對全人類在能源方面的權衡。 AI 的建設比氣候更重要嗎?據預測,到這十年結束時,數據中心消耗的能源將超過整個印度的用電量,比所有電動車車隊多50%。面對如此巨大的能耗,Google 是稍微擱置還是放棄了2030 年的可持續性淨零目標?Sundar Pichai:隨著時間的推移,這不需要是一個權衡或零和博弈。讓我感到興奮的事情之一是,因為這種轉型帶來的能源需求如此巨大,我們以及其他人正在投資開發新的能源來源。我們剛剛完成了與Commonwealth Fusion Systems 簽署的最大規模企業購買核聚變能源協議,我們還有許多從小型模組化核反應器購買能源的協議,並在數據中心使用地熱能。進入這些新能源領域的研發資金和資本投資實際上將加速進步。你是對的,AI 正在以一種當前系統無法完全應對的方式急劇增加能源需求,但這正在推動在太陽能、電池技術、核技術和其他來源上的非凡投資。作為技術專家,我對這一時刻感到樂觀,我們在未來將擁有豐富的可再生能源。(關於淨零目標)不,我們仍然保留這個目標,並會發佈進度報告。你是對的,一些進展的速度將受到影響,因為我們看到底層建設的增長比預期的要快得多。但我們正在透過投資所有這些新技術來應對這一時刻,這就是我們試圖實現它的方式。05. 英國戰略與基礎設施把話題帶回英國,那裡政府仍有淨零排放的雄心,但也想成為AI 超級大國。這兩件事是一致的嗎?另外,Google 作為英國的大投資者,最著名的顯然是以5 億美元買下了DeepMind。如果條件合適,您會考慮在英國進行更高水準的投資嗎,也許在英國訓練這些最先進的AI 模型?Sundar Pichai:它們可以是(一致的),因為技術在這裡是一個推動者。我們為在英國的投資感到自豪,最近在Waltham Cross開設了一個最先進的資料中心,並與Shell 達成了一項獨一無二的協議來為它供電。我認為我們的英國業務在2026 年將達到95% 無碳化。在我們要投入更多的時候這是非凡的進步,所以我認為這是可能的。但對於包括英國在內的每個政府,重要的是弄清楚如何擴大基礎設施,包括能源基礎設施。你不想因為能源而限制經濟發展,那會有後果。(關於在英投資)我們就在幾周前宣佈了在英國的50 億英鎊投資,涵蓋了資本投資、研發和工程。 Google DeepMind 在英國仍有大量的員工,我們在那裡進行最先進的研究工作。我們的目標是隨著時間的推移既能服務我們的模型,又能訓練我們的模型。我們致力於以相當重要的方式在英國投資。06. AI 時代的知識產權博弈AI 繁榮的另一個關鍵燃料顯然是它所訓練的內容。科技公司依賴於“合理使用”,這有點像抓取了書籍、音樂、新聞,然後把那些專業知識賣回給世界。您接受像Google 這樣的公司最終將不得不在某種程度上為此付費嗎?例如像Elton John 爵士這樣的著名流行歌星說這是大規模的剽竊,要求在使用前詢問並保持透明。您願意那樣做嗎?Sundar Pichai:首先退一步說,我認為當我們經歷這個過程時,既要幫助推動創造力和創新,也必須在一個尊重創作者權利以及允許變革性使用以造福社會的框架中進行,這一點非常重要。我們致力於在所有營運國家遵守版權框架。今天當我們訓練時,我們給人們選擇退出訓練的機會,我們在輸出生成方面也尊重版權。我們正在與行業合作,以便在經歷這個過程時建立更新的框架。例如在YouTube,我們一直採用一種向內容權利持有者回饋價值的方法。我們將在這個AI 時刻應用同樣的原則。做到這一點超級重要,我們致力於把它做對。(關於Elton John的建議)實際上今天我們允許人們選擇是否將其內容加入到我們的訓練中,我們給予人們這些權利。07. AGI 競賽Google 曾以對AI 安全、人類風險以及所謂的生存風險持謹慎擔憂態度而著稱。現在這種態度是消失了、被擱置了還是被淡化了?現在是全速向AGI和超級智慧進發了嗎?另外,這是一個非常複雜的領域,Elon Musk 曾暗示他幫助創立OpenAI 正是因為擔心Google 擁有DeepMind 以及他所謂的「AGI 獨裁」。我認為Elon 正確地指出了沒有一家公司應該獨佔像AI 這樣強大的技術。但縱觀當前的生態系統(包括Microsoft 與OpenAI 的交易),您怎麼看待這種競爭格局?Sundar Pichai:當一項技術快速發展時確實存在某種張力,即在多快地開發技術與投入多大精力建立緩解潛在危害的措施之間如何平衡。我們將這種張力概括為:我們要同時做到大膽且負責。因此我們正在快速推進,我認為這是消費者的需求。人們拿起手機提問,現在他們問的問題要複雜得多,他們期望我們利用AI 來更好地回答這些問題。所以我們必須順應這個趨勢。但與此同時,舉例來說我們正在開源一項技術用於檢測圖像是否由AI 生成,我們也在投資這類技術。你會看到過去幾年我們在AI 安全方面的投資增加,是與我們在AI 開發方面的投資成正比的。(關於市場競爭格局)我認為現在有很多公司,也有很多前沿模型。所以如果要說的話,你是對的,如果只有一家公司建構AI 技術而其他人都被迫使用,我也會感到擔憂,但我們現在離那種情況還很遠。08. 量子計算處於AI 五年前的發展階段如果一切都搞砸了,您的量子電腦或許能幫我們導航到多元宇宙或其他平行宇宙去。這項非凡且相當晦澀難懂的技術目前進展如何?我最後一個問題是,幾年前BBC 上次採訪您時,您已經發明了後來演變成ChatGPT 和Gemini 的核心技術。現在你們實驗室裡那些科研人員是否還藏著什麼類似的、我們應該知道的黑科技?例如AlphaFold 是在倫敦完成的嗎?另外,關於無人駕駛汽車,它們沒開始互相按喇叭、交談或有生命吧?Sundar Pichai:進展非常順利。我認為我們在量子計算領域擁有全球最頂尖的成果。進展令人興奮,我會說量子計算目前的階段大約相當於AI 五年前的水平。所以我認為五年後我們將迎來量子領域非常激動人心的階段,我們正以此為目標進行投資。如你所知,自然界和宇宙萬物從根本上都是基於量子力學原理的。建構量子系統將幫助我們更好地模擬和理解自然界,為社會解鎖許多好處。(關於未公開的黑科技)我們正在研發一系列技術。從取得非凡進步的自動駕駛技術說起,它已經展現出了安全效益。我認為推廣這項技術將能避免許多交通事故傷亡,這具有巨大的社會效益。我真心認為在我們所稱的AI 這個大傘下,我們甚至還沒有談到像AlphaFold 這樣的成果。它贏得了諾貝爾獎,正在幫助全球無數生物學家和化學家更好地研發新藥。以前一個博士可能要花整個博士生涯才能解析一個蛋白質結構,而我們在短短幾個月內就解析了約3 億個,並且向全世界免費公開。(關於倫敦DeepMind 與圖靈測試)是的,那是由位於倫敦的Google DeepMind 完成的,領導這項工作的Demis Hassabis 和John Jumper 因此獲得了去年的諾貝爾化學獎。但我認為在某種程度上,我們對這裡的進步有些習以為常了。我們過去常談論圖靈測試,但現在我們似乎已經超越了它,沒人再提了。如果五年前我告訴人們,在舊金山會有許多駕駛座上沒人的無人駕駛汽車在街上跑,人們是不會相信的,但它就這樣發生了。(關於機器是否有生命)我覺得應該沒有。不過也許我們正在利用AI 來更好地理解海豚如何交流,所以我確實認為會有那樣意想不到的驚喜時刻。但這很令人興奮,重要的是作為人類我們要適應這些技術。最近我讓我80 多歲的老父親坐了一次Waymo 無人車,那種驚奇感令我難忘。我坐在後排他坐在前排,看著他體驗這一切讓我深刻體會了這種進步。我們往往把這些視為理所當然,我相信未來會有很多這樣美好的事物。 (數字開物)
前Google CEO 施密特:AI 像電與火,這 10 年決定未來 100 年
2025 年,AI 世界正被無形的張力撕扯:一邊是模型參數的激增,一邊是系統資源的極限。大家都在問:GPT-5、Claude 4、Gemini 2.5 誰更強?但前Google CEO Eric Schmidt (埃裡克·施密特) 在 2025 年 9 月 20 日的公開演講中提出了更深層的洞察:“AI 的到來,在人類歷史上,等同於火、電的發明。而接下來的 10 年,將決定未來 100 年的格局。”他不是在講模型性能,也不是 AGI 的遠近,而是在說:AI 不再是提升工具效率,而是重新定義商業運作方式。與此同時,在矽谷知名投資機構 a16z 的一場對話中,晶片分析師 Dylan Patel 指出:“誇張的說,現在搶 GPU 就像搶‘毒品’一樣,你要托關係、找管道、搶配額。但這不是重點,真正的競爭是誰能建構出支撐 AI 的一個完整體系。”兩人的觀點指向同一個發展趨勢:參數不是邊界,電力是邊界;模型不是護城河,平台才是護城河;AGI 不是目的,落地才是關鍵如果說過去三年,AI 的主線是能力爆發;那接下來十年,主線就是基礎建設。第一節|AI 不再是工具升級,而是系統重構在這場對話裡,Eric Schmidt 開門見山地說:“AI 的到來在人類歷史中,和電、火的發明處於同一等級。”他不是在強調 AI 有多聰明,而是在提醒大家:我們熟悉的工作方式、管理模式、賺錢方法,都可能要徹底改變。不是讓 AI 幫你寫得更快, 而是讓 AI 決定該怎麼寫。Schmidt 說,現在最強的 AI 工具,已經不再是一個助手了,而是正在變成:一種全新的基礎設施,就像電網一樣,成為所有組織的標準配置。這一句話,直接顛覆了過去幾年人們對 AI 的看法。換句話說,這不是個人技能提升或團隊效率最佳化,而是整個組織運轉方式的根本改變:決策方式變了,AI 參與思考;寫作、程式設計、客服、財務都有了 AI 搭檔;資料輸入、結果評估、反饋機制都被 AI 重新設計。這種全面的組織變革讓 Schmidt 意識到,不是預先制定詳細流程,而是在實際應用中讓 AI 逐步適應和最佳化。據他介紹,自己目前參與的幾家創業公司都採用了這種方法,不是先做完整規劃,而是讓 AI 直接參與工作,在實踐中不斷調整和完善。所以他講的,不是模型更強了,而是組織要不要轉向 AI 原生的新形態。AI 正在從工具,變成企業營運的基礎設施。第二節|限制 AI 發展的,是電力過去我們總以為,AI 的能力發展,會被技術卡住:晶片性能不夠,模型算不動;演算法太複雜,推理速度太慢。但 Eric Schmidt 說,真正限制 AI 發展的不是技術參數,而是電力供應。他提到一個具體資料:“到 2030 年,美國需要新增 92GW 電力,才能支撐資料中心的需求。”什麼概念?一個大型核電站,功率也不過 1 到 1.5GW。92GW,相當於幾十座核電站的發電量。現實卻是:美國當前在建核電站,基本是零。這意味著,未來問題不是模型技術不夠先進,而是電力供應跟不上訓練需求。Schmidt 甚至對國會說過一個令人意外的例子:他們可能需要在海外訓練美國自己的模型,比如在中東國家的發電基地。(Sam Altman 剛剛發佈部落格:《智能時代的無限可能》)這種對電力的渴求並非危言聳聽。就在 9 月23 日,OpenAI CEO Sam Altman 剛剛發佈部落格,提出了一個更激進的方向:我們希望建造一種工廠,每周新增 1GW 的 AI 算力設施,用電規模堪比一座城市。他明確指出,這將需要晶片、電力、機器人、建築等多個系統的協同突破。用他的話說:“一切都始於計算。”Altman 的這個目標,不是遠景展示,而是正在佈局的基礎建設。它正是 Schmidt 所說“AI 將成為新電網”的現實化路徑。事實上:模型訓練本身並不貴,真正的成本是電力消耗、執行階段間和裝置維護。隨著推理任務越來越多,生成內容越來越複雜(圖像、視訊、長文字),AI 工廠的電量需求正變成新的算力瓶頸。Dylan Patel 在另一場對話中也提到,搭建 AI 系統時,不僅要考慮晶片有多快,還要考慮散熱、電費、穩定性。他說得更形象:“AI 工廠不是買一堆 GPU 就行,還要考慮電能調度和持續運行能力。”所以這不是晶片問題,而是電力跟不跟得上的問題。而當電力無法滿足時,連鎖反應就來了:模型不能訓練;推理成本升高;AI 工具無法大規模部署;最終失去落地的可能性。Schmidt 認為,基礎設施跟不上是目前 AI 落地面臨的最大現實挑戰。沒有足夠能源支撐,再領先的模型能力也用不起來。因此,AI 的下一個戰場不在實驗室,而在發電廠。第三節|不是誰有晶片,而是誰能把它們用起來而即便電力解決了,問題還沒完。你真的能把這些晶片、模型、任務,全都運行起來嗎?很多人以為,只要拿到 H100、B200 這些最先進的晶片,AI 工廠就建成了。但 Dylan Patel 一上來就潑了冷水:“現在 GPU 非常緊缺,要發簡訊到處問'你有多少貨?什麼價格?”他接著說:“但光有晶片還不夠。核心是要讓它們有效協作。”也就是說,晶片本身只是一個部件,真正決定 AI 工廠能否持續運行的,是你有沒有能力把這些晶片整合起來運行。他將這種整合能力分為四個層面:算力底座:GPU、TPU 等硬體基礎;軟體棧:訓練框架、調度系統、任務分配器;冷卻與電力管理:不只是有電,還要把溫度、負載、電費控制好;工程能力:誰來最佳化模型、調優算力、控製成本。這就是 Dylan 所說的“AI 工廠”的核心:AI 工廠不是一個模型、也不是一張卡,而是一整套連續的工程調度能力。你會發現,AI 工廠不僅需要大量算力,更需要複雜的工程配合:一堆 GPU 是“原材料”;軟體調度是“控制室”;冷卻和電力是“水電工”;工程團隊是“維修組”。簡單來說,重心已經從“造模型”轉向了“建基礎設施”。Dylan 觀察到一個有趣的現象:你看現在的晶片公司,不只是賣卡了,而是開始“包施工”了。Nvidia 開始幫客戶整合伺服器、配置冷卻、搭建平台,自己就成了平台。(圖源:路透社報導)這場訪談發佈的同一天,Nvidia 與 OpenAI 公佈了一項未來合作意向:Nvidia 將為 OpenAI 提供最多 10GW 等級的資料中心資源,投資規模可能達到數 1000 億美元。Sam Altman 在聲明中說了一句話,恰好印證了上面這個邏輯:計算基礎設施將是未來經濟的基礎。Nvidia 不只是賣卡、供晶片,更是和他們一起部署、建設、營運整個 AI 工廠。這說明了一個趨勢:真正有能力形成閉環的,不是最聰明的人,而是最懂如何落地的人。也就是:能造出模型,是一回事;能讓模型每天穩定運行,是另一回事。AI 不再是買來就能用的產品,而是需要持續營運的複雜工程系統。關鍵是你有沒有長期營運這套系統的能力。第四節|AI 能力擴散成趨勢,競爭焦點在那?當大家還在爭奪營運能力時,新的變化已經出現了。AI 模型做得越來越好,越來越聰明,但 Eric Schmidt 提了個警告:“我們無法阻止模型蒸餾。幾乎任何一個能訪問 API 的人,都能複製它的能力。”什麼是蒸餾?簡單說:大模型雖然能力強,但部署成本太高;研究者會用它來訓練一個小模型,讓小模型模仿它的思考方式;成本低、速度快、精度高、難以追蹤。就像你沒辦法複製一個頂級廚師,但可以通過他做出來的菜,教會另一個人做出八成相似的效果。問題就來了:能力越容易被轉移,模型本身越難被限制。(Dylan Patel,知名晶片行業分析師,專注AI基礎設施研究)Dylan Patel 也提到一個行業趨勢:現在蒸餾成本,只佔原始訓練的 1% 左右,卻能復現原模型 80-90% 的能力。即使 OpenAI、Google、Anthropic 把模型保護得再嚴密,也擋不住有人通過蒸餾獲得相似能力。以前大家比的是誰更強;現在開始擔心誰還控制得住?Schmidt 在訪談裡說:最大的模型將永不開放。而小模型的擴散,將不可避免。他不是在鼓吹封閉,而是在提醒一個現實:技術擴散的速度,可能遠快於治理跟上的節奏。舉個例子,現在已有不少團隊用 GPT-4 的 API,去蒸餾出一個 GPT-4-lite:成本低,易部署;基本對外沒有明確標識;使用者用起來感覺幾乎一樣。這就帶來一個難題:模型的能力,可能會像“空氣”一樣擴散;但模型的源頭、責任歸屬、使用邊界,都很難界定清楚。Schmidt 真正擔心不是模型太強,而是:“當越來越多的模型具備強能力,卻不受監管、難以溯源、責任不清,我們該如何確保 AI 的可信度?”這種現像已經不是假設,而是當前的現實。隨著 AI 能力擴散已經成為不可逆轉的趨勢。單純擁有先進模型不再是護城河。競爭的焦點已經轉向了如何更好地運用和服務這些能力。第五節|平台的關鍵,是越用越準所以最終,比能不能造出來更重要的是:你能不能建構出一個越用越好的平台?Eric Schmidt 給出了他的答案:“未來成功的 AI 公司,不只拼模型性能,更要拼持續學習的能力。”通俗說就是:你不是一次性做出一個產品就完事,而是建一個平台,讓它用得越多越聰明、越用越好用、越用越穩定。他進一步解釋:平台的核心不是功能,而是讓別人離不開你。比如:電網不是因為燈泡亮,而是因為能讓所有燈都亮;作業系統不是因為功能多,而是能讓一批應用穩定運行;AI 平台也一樣,不是做出某個智能助手,而是讓別的團隊、使用者、模型都能接入、呼叫、增強。AI 平台不是某個功能,而是一套持續運轉的服務網路。他還建議年輕創始人:不要只問這個產品做得完美不完美。要看它有沒有形成一條“用 → 學 → 最佳化 → 再用”的路徑。因為:能持續學習的平台,才有長期生存的可能。Dylan Patel 補充說,這其實也是 Nvidia 成功的路徑。黃仁勳做了三十年 CEO,靠的不是運氣,而是不斷把晶片和軟體綁成閉環:客戶用得越多,他就越瞭解客戶想要什麼;越瞭解需求,產品就越好用;產品越好用,客戶就越難放棄。這樣就形成了良性循環,越用越值。不是“發佈即巔峰”,而是能夠持續成長的平台。Schmidt 總結得很清晰:你能不能建構出這樣一個增長機制?一開始可能很小,但它能不斷適應、不斷擴展、不斷更新?他對未來 AI 平台成功者的判斷是:不是你寫了什麼程式碼,而是你能不能讓一個平台活下來,而且越活越強。結語|誰先形成閉環,誰贏未來Eric Schmidt 在訪談中說:“AI 就像電與火,這 10 年,將決定未來 100 年。”AI 的能力已經準備好了,但往那走、怎麼搭、怎麼用還沒想清楚。現在的重點不是等下一代模型,而是把現有 AI 用起來、用得好。別總想著 GPT-6/DeepSeek R2 什麼時候出,先把手頭的工具在客服、寫作、資料分析等場景中跑通。讓 AI 能 24 小時穩定工作,而不是只在發佈會上驚豔一下。這不是聰明人的比賽,而是執行力的較量。誰能率先把 AI 從實驗室帶到現實,誰就掌握了未來十年的主動權。而這場“閉環之爭”,從現在就已經開始。 (AI深度研究員)
精譯 | Perplexity CEO專訪:想超越Google和GPT,但大部分人搞錯了方向
在矽谷的Perplexity辦公室裡,阿爾溫德·斯里尼瓦斯正在勾勒一幅全新的網際網路藍圖——AI不再只是回答你的問題,而是進化為貼身的智能代理,幫你過濾海量資訊、管理日程,甚至主動為你網購、篩選好友、安排行程。這位27歲的印度裔CEO,從IIT馬德拉斯到加州大學伯克利分校,從OpenAI實習生到挑戰Google搜尋霸權的創業者,他的公司Perplexity在兩年內從零成長為估值90億美元的AI搜尋引擎,月活使用者超過1000萬。Perplexity被稱為"AI版Google"。與傳統搜尋引擎截然不同,使用者可以用自然語言提問,它會即時搜尋網路,整合多個權威來源的資訊,並生成帶有引用連結的精準答案。從學術研究到投資分析,從日常購物到旅行規劃,Perplexity正在重新定義人們獲取資訊的方式。目前,Perplexity每個月處理超過7.8億次查詢,增長率超過20%。不過,這位年輕的CEO並不滿足於做一個"AI版Google”。他們剛剛發佈的Comet瀏覽器,正在重新定義人類與網際網路的關係。在這個AI原生瀏覽器中,智能代理不僅能理解你在做什麼,還能主動幫你完成各種任務——這意味著,AI不僅成為你的工具,更開始介入和重塑你的線上生活方式。“很多人想靠給聊天機器人加功能來超越ChatGPT,但他們完全搞錯了方向。”斯里尼瓦斯說,“聊天層的競爭已經結束,真正的機會是在聊天之上,建構端到端的智能代理工作流。”當AI瀏覽器大戰一觸即發,Google緊鑼密鼓地整合AI功能,OpenAI據傳也即將入局,Perplexity則已經率先行動。當AI真正“代替”我們上網、決策、互動時,網際網路本身或許也將被徹底改寫。核心要點:1.Chrome多次"誤殺"Perplexity擴展,迫使其開發獨立瀏覽器2.AI代理可忽略廣告直接購買,將摧毀Google廣告商業模式3. Google受制於成本、安全和內部協調,給創業公司留下機會窗口4. Comet混合架構讓登錄資訊留在本地,比OpenAI方案更安全5. 內部基準PPLxBench用真實使用者資料,比學術基準更可靠6. AI競爭核心在上下文工程和工具協調,而非模型本身7.瀏覽器開發需長期投入,高門檻將成競爭護城河8.技術進步超越人類適應速度,需更多企業家創造新就業嘉賓介紹阿爾溫德·斯里尼瓦斯(Aravind Srinivas)Perplexity AI聯合創始人兼CEO(圖左)馬修·伯曼(Matthew Berman)主持人,知名AI領域YouTuber和技術評論家(圖右)1為什麼要做瀏覽器?從Chrome擴展被"誤殺"說起主持人馬修·伯曼:阿爾溫德,感謝你的到來。首先我想談談,是什麼促使你們開發自己的網頁瀏覽器?阿爾溫德·斯里尼瓦斯:這個想法的起源是我們注意到的一個現象:世界上大約150億次搜尋查詢中,70-80%都是通過瀏覽器的搜尋框進行的,也就是Chrome或Safari的網址列。這個被稱為為"Omnibox"(全能搜尋框)的統一搜尋框,實際上是Google流量的最大入口。但真正讓我們下定決心的,是一系列"不愉快"的經歷。我們曾經開發了一個Chrome擴展,可以將Perplexity設為默認搜尋引擎。結果呢?Chrome更新後,這個擴展就神秘消失了。我自己都遇到過這種情況——去Chrome應用程式商店一看,發現擴展被"自動解除安裝",理由是"可能在收集你的搜尋資料"。我們還做過一個側邊欄擴展,讓使用者可以隨時向我們提問頁面相關的問題,但經常無法正常工作。這讓我想起了Google當年的經歷——微軟曾經推送IE瀏覽器更新,專門移除Google工具列,這直接促使Google決定開發自己的瀏覽器。歷史總是驚人地相似。因此,我們意識到必須掌控自己的命運。雖然開發瀏覽器對我們這樣專注核心產品的公司來說是巨大的分心,但我們不能只做防守。關鍵的轉折點是:我們看到了只有在瀏覽器環境下才能實現的功能——AI代理。想像一下,一個AI助手可以跨越你的不同標籤頁提取上下文,深度研究你的Slack(企業即時通訊和協作平台)、Notion(生產力工具)或Google Docs(Google文件),回覆郵件,整理日程安排會議。這些都是傳統個人助理會做的事情。對小企業主來說,它可以比較商品價格,分析Reddit(美國知名社交新聞聚合網站)上使用者評論來調整行銷策略——而這些工作原本需要花費數小時或僱傭專門團隊。主持人馬修·伯曼:開發一個全新的瀏覽器從零到發佈只花了8個月的時間,這確實很瘋狂。阿爾溫德·斯里尼瓦斯:是的,雖然我們基於Chromium(Google開放原始碼的瀏覽器項目)開發,但就像所有軟體都基於Linux一樣,我們都站在巨人的肩膀上。更重要的是,我們不只是做了一個瀏覽器,而是我們讓 AI 代理功能達到了足以讓使用者驚豔的水平。能夠在短短八個月內發佈第一個版本,我感到非常自豪。當然,這遠遠沒有結束。接下來,我們要確保產品能夠穩定地服務於上百萬使用者,並在這個基礎上持續擴展和最佳化。之所以選擇自己做瀏覽器,一方面是出於防守——避免被第三方平台所限制,真正掌握自己的命運;另一方面也是主動出擊——有些創新和體驗,只有在我們完全掌控客戶端的情況下才能實現。2AI代理正在殺死Google的廣告模式主持人馬修·伯曼:Google會繼續在瀏覽器中加入AI功能,OpenAI據說也要推出瀏覽器。你們如何保持競爭力?阿爾溫德·斯里尼瓦斯:對於Google的挑戰,本質上和我們在搜尋領域面臨的問題是一樣的——經濟模式的根本衝突。想像一下這個場景:如果AI代理替你點選連結、閱讀內容、做購買決策,甚至直接完成購買,那企業為什麼還要在Google AdWords(Google的廣告平台)上花費數十億美元?使用者完全可以對AI說:"忽略所有廣告連結,只點選真實內容,閱讀所有評價,觀看相關YouTube視訊,然後為我買最好的那個,購買前確認一下就行。"如果AI花15分鐘就能完成這種複雜的任務鏈條,並基於你的喜好給出建議,那其他商家在這個關鍵詞上的廣告投入就完全白費了。這對Google AdWords業務是致命打擊。商家會被迫把錢更多投向品牌廣告而不是效果廣告。這也解釋了為什麼Google在去年的年度開發者大會上發佈的Project Mariner(AI代理項目)功能有限,而且藏在每月250美元的付費計畫後面。對擁有1000億美元現金流的Google來說,把這種技術放在200美元/月的付費牆後面很奇怪,除非他們不想破壞現有業務。他們有太多需要保護的東西,不敢把這種技術開放給所有人。其次是成本問題。推理成本極高,向30億使用者提供這種服務需要巨大投入。這對正在崛起的公司反而有利,因為你不可能一夜之間服務30億人,需要逐步擴展。第三是安全風險。我們是創業公司,人們期待我們去挑戰,願意接受一個功能強大但還不完美的產品。但對Google來說,安全標準和企業級安全要求極高,在他們最重要的資產——搜尋業務的聖盃Omnibox上犯任何錯誤,代價都是巨大的。就像當年Bard(Google的AI聊天機器人)演示出錯,Google股價就跌了7%。如果因為在瀏覽器中的AI錯誤導致使用者轉向Safari等其他瀏覽器,那損失會非常慘重。最後是組織架構問題。Google內部有人負責AI,有人負責瀏覽器,有人負責廣告,讓所有部門就發佈計畫達成一致需要幾個月時間。而我們認為這個時間窗口足夠我們發佈這些功能,獲得初始核心使用者,並打造更好的產品。主持人馬修·伯曼:你之前提到不想爭第二名,只想爭第一名。阿爾溫德·斯里尼瓦斯:很多人想通過在聊天機器人上增加更多功能來超越ChatGPT,但他們完全搞錯了重點。聊天層的遊戲已經結束了,OpenAI完全贏得了這場競爭,沒必要逃避這個事實。Google顯然會繼續努力保持第二名,但相距甚遠。我對爭奪第二名沒興趣,我要爭第一名。而端到端的智能代理工作流程是在聊天之上的一層。瀏覽器是我們使用頻率超過ChatGPT的產品,而且粘性極強——一旦習慣了某個瀏覽器,切換需要很大成本。我覺得這是Google第一次真正處於劣勢。即使他們想破壞自己的商業模式,僅僅讓使用者點選連結,向數十億使用者提供這種耗費大量算力的AI代理服務,對他們來說也是巨大的開支。甚至我們現在也做不到——Comet目前只對有限使用者和候補名單上的人開放。這是一個全新的產品類別,你不能只是快速迭代。一切都需要時間,所以你要承受真正的痛苦來開發這個產品。我們希望這能成為很好的競爭門檻——不只是發佈客戶端的第一版,而是持續升級,不斷推出新功能,並承諾在這裡投入十年的工作。3個人AI過濾器:告別垃圾資訊的新方式主持人馬修·伯曼:當我開始使用Comet時,我看到了網路瀏覽的一些未來景象。人類和真實網際網路之間似乎出現了某種分離,中間會有一個代理。這是你們的願景嗎?阿爾溫德·斯里尼瓦斯: 我希望網路不會變得那麼糟糕,以至於大部分內容都是AI生成的垃圾資訊。但坦率地說,現在已經有這種趨勢了。每當我在X(原Twitter)上發推文,大量回覆都是機器人,我不斷把它們標記為垃圾資訊,但似乎很難處理。這確實是Comet的一個絕佳應用場景:讓它自動篩讀文章或推文,過濾AI垃圾,只提煉有用資訊,並按需整理,直接在本地客戶端展示給我。你可以建構自己想要的版本。比如你收到大量連接請求,沒時間逐一處理,就可以說:"過濾所有連接請求,只保留至少有一個共同聯絡人的。我不想接受來自完全不認識的人的請求。"或者你舉辦活動,有200人想參加,你可以說:"按這個標準篩選,去LinkedIn上查看他們的背景,看看是否來自知名品牌,這些是我想要的品牌類型,先把這些人給我,接受他們的請求,然後發郵件通知他們已被錄取。"這些都是枯燥乏味的任務,原本需要你或團隊成員花費多少小時?我們希望基於你提到的訊號雜訊比問題——如果由於AI的氾濫,網路資訊的訊號雜訊比會隨時間下降,那麼Comet就是對抗它的方式:每個人都有自己的個人AI來過濾垃圾資訊,只給你有用的資訊。主持人馬修·伯曼:與完全託管在雲端的代理環境相比,本地代理的體驗有什麼根本區別?阿爾溫德·斯里尼瓦斯:關鍵區別在於安全性和使用者體驗。為什麼有人會希望在別人的伺服器上保留第三方應用的登錄狀態?這風險極大。你必須確保他們刪除cookie連結或認證令牌,這些都是使用Comet時不需要擔心的問題,也是我們與OpenAI的Operator(網頁操作工具)的方法的重大區別。他們試圖在伺服器端保留所有內容,以無頭模式(headless mode,後台自動化操作)運行,要求你進行身份驗證,然後儲存認證令牌或保持持久cookie。這不是讓使用者對安全性放心的好方法。瀏覽器為我們提供了客戶端和伺服器端架構的混合方案。所有登錄資訊都保留在客戶端,所有第三方服務的登錄狀態都在客戶端,這些資料都儲存在你的客戶端上,我們不必獲取任何資訊。當你讓Comet代理執行任務時,它只會從瀏覽器的打開標籤頁中提取該特定任務的相關資訊,解析螢幕並完成任務。任務所需的智能來自伺服器端——運行在雲端的強大模型。主持人馬修·伯曼:如果我想刪除這些查詢記錄怎麼辦?阿爾溫德·斯里尼瓦斯:你可以要求我們不儲存任何資料。如果你想刪除查詢記錄,可以到Perplexity刪除。如果你想在隱身模式下運行,我們甚至不儲存這些提示或中間的思考過程。一切都保持安全。這樣,我們既能真正幫助你,確保所有資訊都屬於你,又能受益於伺服器上的前沿智能,但只在需要時將其應用於你的資料,永遠不需要讓你在我們的伺服器上保持登錄狀態。另一個重點是Omnibox。如果有人爭論:"為什麼我需要瀏覽器?給我一個聊天窗口,我跟它對話,它就能為我做一切",我覺得人們並沒有意識到——AI還沒準備好100%可靠且自主地完成所有事情。你仍然需要親自處理很多任務。比如我不會信任Comet精準地為Perplexity做財務會計。我們有大量現金,我不會信任它登錄投資銀行或商業銀行。這些系統的登錄本身就很複雜,而這些事情AI當前還做不到。既然你還需要用瀏覽器來處理這些重要任務,為什麼不在一個統一的環境中完成所有工作呢?這就是瀏覽器為你提供的價值。Omnibox本來就是你輸入大部分內容的地方。如果我能直接在那裡幫助你,或者在你瀏覽的任何網頁上與你協作,就像一個智能助手站在你身邊一起瀏覽,這會非常強大。這就是為什麼我們認為瀏覽器方案完全合理,而不是把你鎖定在一個完全不同介面的桌面應用中,試圖建構那些流式介面。整合在瀏覽器中的體驗要好得多,因為這是使用者本來就熟悉的環境。4打造專屬於Perplexity的AI引擎主持人馬修·伯曼:Perplexity支援很多不同的AI模型,最近還在X上發佈說Kimi模型在內部評估中表現不錯,很快會開始後訓練。你們如何選擇要整合的模型?後訓練又是什麼樣的?阿爾溫德·斯里尼瓦斯: 我們有一個內部基準測試,叫做PPLxBench。這是一個不斷加入更多提示的基準。每當有人在X上標記bug,或直接從產品、Discord、Reddit等管道報告問題時——我們有很多收集bug的管道。但我們不會像X AI(馬斯克的AI公司)那樣立即修復bug——他們只是修改提示來解決問題。我們的做法是將這些問題加入到評估集中,嘗試一起修復一批bug,可能是提示更改,也可能是後訓練更改,然後在基準集上重新評估。這樣基準集會不斷擴展,包含對我們產品和使用者真正重要的提示。這為我們在提示版本控制或後訓練方面的任何更改提供了真實訊號,幫助我們判斷是否進行了有效的後訓練。每當有新模型發佈時,我們不必僅僅依靠學術界的最新基準。我們可以實際看到它在內部評估中的表現,這些評估涵蓋了許多不同的垂直領域和用例。一旦模型表現良好,任何模型提供商都很難過度擬合我們的基準,因為我們沒有公開版本。雖然他們可能通過挖掘類似訓練集的更多提示來過度擬合學術基準(即使評估集是私有的),但他們無法為Perplexity挖掘這些資料,因為這些都是真實使用者資料。我們的後訓練方法是:採樣一些我們目前表現不好的提示,加上一些模型作為通用模型必須擅長的提示,將所有這些組合成後訓練集。我們同時進行SFT(監督微調)和RHF(人類反饋強化學習),其中RHF使用的是DeepSeek設計的GRPO演算法。主持人馬修·伯曼:目前所有後訓練都在DeepSeek模型上進行嗎?阿爾溫德·斯里尼瓦斯: 是的,但我相信 Kimi 很快會趕上。我們還有阿里巴巴 Qwen(通義千問)的小型微調版,廣泛用於各種分類任務。實際上,Perplexity 不只用一個核心聊天模型。比如,系統需要判斷你的請求是否涉及個人資料、是否要生成財務介面、圖表、結構化卡片或購物查詢等,每次搜尋時大約有 20 個不同模型協同運行。即使你只選了一個模型,後台也會調動其他模型共同處理,因為單一模型無法獨立完成所有任務。OpenAI也在這樣做。每次你在ChatGPT上提問,他們決定是否搜尋網路,那只是一個分類器。這就是為什麼AI最終會被那些擅長上下文工程的人掌控——他們能夠整合所有相關上下文,協調所有相關工具,並將所有內容打包成出色的使用者工作流程。主持人馬修·伯曼:你們是否需要與前沿模型提供商競爭?阿爾溫德·斯里尼瓦斯: 不僅僅是那樣。很多人認為我們不懂如何訓練模型,這不對。我們當然有大語言模型的專業知識。但問題不在於一次性發佈一個模型——Mistral(法國AI公司)曾經做過,但今天沒人談論他們的模型了。為什麼?因為你必須持續生產模型,這是永無止境的旅程。除非有人真正實現了通用人工智慧或者超級智能,否則你就必須不斷在各種排行榜和基準測試上爭奪領先地位。如果你做不到,最優秀的研究人員就會選擇加入那些能夠做到的實驗室,或者被願意開出上億美元年薪的人挖走。你必須全身心投入創立一家能夠提前兩年規劃、持續建設數十萬GPU叢集、採購大量能源並自建資料中心的公司。主持人馬修·伯曼:所以關鍵是訓練對產品和使用者真正重要的模型。阿爾溫德·斯里尼瓦斯: 我們現在關注兩件事:第一,打造具備高精準性、帶引用且無虛假資訊的優秀總結能力——這已通過 Sonar 模型實現,目前大多數搜尋都依賴於它。第二,我們希望訓練出能高效控制瀏覽器的模型,比如快速點選和切換標籤。目前,我們雖然能用內部模型進行上下文打包和總結,但在具體決策和實際操作上,還沒有專用模型,因此這一能力尤為珍貴。我相信,不久的將來就能實現本地高效運行。像我們訓練出強大總結和對話能力模型一樣,我也有信心將專業能力應用於“瀏覽器控制”領域。這個模型無需龐大,但要足夠通用和靈活,兼具推理和專門化,才能實現對瀏覽器的高速操作。目前 Comet 執行複雜任務需四五分鐘,如果能將其縮短到一分鐘以內,那才是真正的“魔法”。唯一的辦法,就是訓練出既小巧又高效的自研模型,並開發專屬推理核心,全面提升速度。主持人馬修·伯曼:這些模型會在使用者電腦上本地運行嗎?阿爾溫德·斯里尼瓦斯: 如果能實現本地運行,將非常理想。雖然我不確定 MacBook 的性能是否足夠,但如果可行,這將是我們的首選方向。現在,微軟部分筆記本已配備 NPU,MacBook 也有 M1 晶片。如果一年後我們能做到,不僅速度更快,隱私也能得到保障——所有資料都可以留在本地,無需再擔心伺服器端。這將是一次真正意義上的突破。5AI會搶走你的工作嗎?主持人馬修·伯曼:很多人擔心AI會取代他們的工作。你對此有何看法?阿爾溫德·斯里尼瓦斯: AI肯定會對社會產生這種影響:那些真正站在使用AI前沿的人,會比不使用AI的人更容易找到工作。這是必然會發生的。但大家忽視了真正的問題:這不是AI與人類的簡單對立,而是技術進步的速度達到了前所未有的程度。即使你告訴人們'必須開始使用AI,學會如何使用AI,通過AI為團隊創造更多價值,提高效率',但人類從來都不擅長快速適應。我們雖然有適應能力,但這次真的在挑戰我們的極限,特別是面對每三到六個月就更新換代的技術。主持人馬修·伯曼:所以你相信那句行業老話:"擁有AI的人會取代你,而AI本身不會"?阿爾溫德·斯里尼瓦斯: 是的,但我覺得這不是簡單地告訴人們"去使用AI"就能解決的問題。我認為要求人們跟上時代需要付出很大努力。因此,有些人會失業,因為也許跟上這些超出了他們的能力範圍。社會需要湧現更多企業家來創造新工作。因為每家公司都需要更少的人。那些失業的人要麼最終自己創業,利用AI;要麼他們學會了使用AI,為需要招聘的新公司做貢獻。在這之中會有一個臨時階段,所有的位移和轉變都在這個階段發生。在這個階段,你會看到一些人在掙扎,沒必要粉飾這一點。主持人馬修·伯曼:Box公司的CEO亞倫·列維(Aaron Levie)幾周前對我說,隨著AI變得更好、人們使用更多,公司實際上不會需要更少的人。他的論點是,如果他有一個使用AI極其高效的團隊,難道他們不應該是他首先投資、擴展的團隊嗎?阿爾溫德·斯里尼瓦斯: 我認為這是一個很好的長期論點,但這個論點的缺陷在於它假設總是會有大量懂得如何使用AI的人才供應。我想強調,人們的適應速度不會那麼快。主要不是因為我們自身的侷限性,而是因為技術進步的速度。它進步得比我們通常的適應速度更快,所以需要我們付出更多努力來跟上時代。你知道O4和O3之間的區別嗎?很多人甚至不知道,仍然停留在GPT-4.0這個默認模型上。現在瀏覽代理要來了,某個時候它會使用你的電腦,填寫表格。顯然某種形式的勞動將不再需要。我希望人們盡力而為,不要掉以輕心。主持人馬修·伯曼:最後,你對那些擔心被AI取代的人有什麼建議?阿爾溫德·斯里尼瓦斯: 這個轉變是真實存在的,速度也是前所未有的。但歷史告訴我們,每一次技術革命最終都創造了更多的機會。關鍵是要主動適應,而不是被動等待。你有沒有想過,為什麼要花錢請理財顧問、房產經紀人或中介?其實你為這些建議和服務付出了不少,只是很少意識到這一點,因為社會運作本就是如此。AI工具也是如此。如果你認為通過使用AI獲得了與家人相處的時間,或者幫你每年多安排一次度假,在工作中表現出色,獲得晉陞,這些完全彌補了你在AI工具上的投資,人們就會開始把AI看得不像是在為Netflix或Spotify付費,而是:"我是否願意為了更好的生活而投資,讓自己更容易獲得長期成功?"那些能夠掌握AI工具的人,將在這個新時代中找到自己的位置;而那些選擇迴避的人,可能真的會被時代拋在後面。這不是危言聳聽,而是現實。但同樣現實的是,機會就在那裡,等著那些願意學習和適應的人去抓住。我希望人們盡最大努力,不要輕視這個問題。少花時間在社交媒體上無意義地瀏覽,多花時間使用AI。不是因為我們想要你的使用量,而是因為這是你為新社會提供價值的方式。 (每日天使)
蘋果宣判推理模型死刑!Google CEO:忘了AGI吧,先用好AJI
剛剛,蘋果扔出一顆深水炸彈,直接宣判了所有「推理」模型的死刑。他們用一系列全新的智力測試題,把Claude Thinking、DeepSeek-R1和o3-mini這些號稱會「思考」的模型打回了原形。結果讓人大跌眼鏡:這些模型根本不是在推理,只是在玩高級版的「記憶大師」遊戲。蘋果的「解剖刀」蘋果研究員設計了一套模型從未見過的謎題遊戲,專門測試純邏輯推理能力。當問題複雜度提升時,所有模型的精準率直接歸零。更詭異的是,隨著問題變難,這些「思考」模型反而開始偷懶了——用更少的token,更快地放棄,那怕給它們無限的計算資源也沒用。研究揭示了三個清晰的階段:低複雜度:普通模型反而表現更好中等複雜度:「思考」模型略有優勢高複雜度:全軍覆沒而現實世界的大部分問題,恰恰都屬於第三類。最致命的發現是什麼?即便把解題演算法一步步喂給模型,它們依然在相同的複雜度節點上崩潰。這就像給了食譜還是不會做飯,本質上缺乏真正的理解能力。漢諾塔謎題可以輕鬆處理100多步,但河流渡河謎題僅僅4步就讓模型抓瞎。這強烈暗示:模型在訓練時見過漢諾塔的解法,但對河流渡河問題一無所知。Ruben Hassid (@RubenHssd) 指出:如果這些模型真的在「推理」,它們應該隨著計算資源增加和指令更清晰而表現更好。但實際上,它們碰到硬牆就開始擺爛了。蘋果選擇可控謎題環境作為測試場景,正是因為:避免資料污染要求純粹的邏輯推理可以精確控制複雜度能暴露模型的真實極限Google的「鋸齒」哲學就在所有人都在因蘋果宣判而為AGI 夢碎嘆息時,Google CEO Sundar Pichai卻提出了一個更實際的概念——AJI。AJI,全稱Artificial Jagged Intelligence(人工鋸齒智能),完美描述了當前AI的真實狀態:時而驚豔,時而弱智。在Lex Fridman的採訪中,Pichai坦誠地說:「有時你看到AI的表現會驚嘆,然後下一秒它連草莓裡有幾個R都數不清。」這種「參差不齊」的鋸齒正是當前AI發展的真實寫照。就像坐在舊金山的Waymo無人車裡,它能在擁擠的人群中自如穿梭,展現出超人的駕駛技巧;但同時,它可能在最簡單的數學題上栽跟頭。「我們不斷地在移動AGI的定義標準」,Pichai說,「今天你坐在舊金山的Waymo裡,穿過擁擠的人群,你會看到智能的閃光。但然後你又會看到一些明顯還遠未達到AGI的東西。你會同時體驗到這兩種感受。」2030年的預言Pichai的預測很有意思:到2030年,我們可能還達不到AGI,但這並不重要。「我幾乎覺得這個術語不重要了。我知道的是,到2030年,將會有如此巨大的進步。我們將不得不處理這種進步帶來的後果——積極的外部性和消極的外部性,都會以重大的方式出現。」當初Google收購DeepMind時(2014年),團隊預測需要20年才能實現AGI(從2010年算起)。現在看來,這個時間表可能還是太樂觀了。「在Google DeepMind的早期,2010年時他們談到實現AGI需要20年的時間框架,這很有趣。我不認為我們能在2030年之前完全達到,我覺得會稍微晚一些。」但Pichai強調:「我要強調的是,這並不重要。無論那個定義是什麼,因為你將在許多維度上看到令人驚嘆的進步。」他認為AI將在四個關鍵領域帶來巨大益處:改善知識獲取:AI可以用母語翻譯和傳播資訊,讓全球知識更容易獲取。加速科學發現:AI可以協助資料分析和假設生成,可能加快醫學和材料科學等領域的突破。減輕氣候災害:AI可以提供預測建模和最佳化,幫助管理和減輕環境挑戰。經濟進步:AI可以推動生產力和創新,促進經濟增長。爭議與反思面對蘋果的「打臉」研究,AI 社區出現了有趣的分化。一派認為這證明了當前AI路線的根本缺陷。Wim 🇳🇱🏴󠁧󠁢󠁷󠁬󠁳󠁿🇬🇧 (@wimdows) 說:對懂LLM架構的人來說這不是新聞。LLM在通往AGI的路上就是死胡同,可能會讓我們的AGI之路倒退5-10年。Fede Lang ₿⚡ (@fedelang) 則認為:我不能說他們是對是錯。但我確定的是,蘋果真的落後了,這只是在貶低競爭對手。但另一派則更加務實。Ramanuj Lal (@ramanujlal) 反問:誰能證明人類不是在做同樣的事?對大多數人來說,邏輯推理的深度也就止步於「我以前見過類似的嗎?」Greg Parker (@gregparker2017) 更是直接挑戰了蘋果的結論:說「只是記憶模式」?實際上,推理本身就是模式。推理完全基於邏輯模式及其應用。Andy D (@DickoDownUnder) 提供了一個深刻的哲學視角:真正的智能來自於「what is」和「what is not」之間的相互作用。創造力、直覺和智慧需要想像、假設和生成全新概念的能力——特別是那些尚不存在的東西。這可能與自我意識深度相關。而有意思的是市場反應——JaggedAI.com這個域名已經被人以19,999美元的價格搶注了。Jason (@DCLjasonx) 驚呼:剛剛有人花19,999美元買下了https://jaggedai.com/!5分鐘前還在售呢!Jordan Thibodeau (@JordanSVIC) 還爆料了一些Google內部的遺憾:2017年Aidan Gomez團隊在Google寫出了「Attention is all you need」,結果Sundar他們完全忽視了,錯失良機啊!擁抱「鋸齒」的未來Pichai在採訪中特別強調,「到2030年,我們需要一個強大的系統來標記AI生成的內容,幫助使用者區分它與現實。」這正是關鍵所在:我們不需要AI成為無所不能的神,只需要它在特定領域足夠出色。透明度和道德考量將成為AI發展的核心。Google在Pichai的領導下,繼續在AI研究和創新方面處於領先地位,致力於解決這個領域出現的複雜問題。他的前瞻性聲明和戰略願景表明,他們致力於利用AI產生重大社會影響,同時也認識到需要細緻的改進和監管。在我看來,無論是蘋果的否定,還是AGI 的無所不能——這也恰恰給我們一個關鍵洞察:與其糾結AI是否真的在「推理」,不如接受它的「鋸齒」本質,學會在合適的場景用合適的工具。如PromptPilot (@PromptPilot) 總結的:「閃光的智慧,緊隨愚蠢的錯誤」可能是迄今為止對AI最準確的總結。質疑者永遠能找到證據,但創新者已經在路上。知道AI的侷限,恰恰是用好AI的前提。就像使用任何工具一樣,瞭解它的長處和短板,才能物盡其用。是全盤否定AI 的能力,還是繼續追求遙不可及的AGI,還是先把「參差不齊」的鋸齒AJI 用到極致? (AGI Hunt)
【DeepSeek】GoogleCEO發聲
據日本《日經亞洲新聞》2月5日報導,Google首席執行官桑達爾·皮查伊和美國超威半導體公司(AMD)首席執行官蘇姿豐(Lisa Su)日前紛紛稱讚中國人工智慧(AI)企業深度求索(DeepSeek)。 報導稱,DeepSeek已成為本季度各大科技公司財報電話會議上的常見話題。皮查伊在週二的財報電話會議上談及DeepSeek時表示,該團隊做了“非常、非常棒的工作”。他表示,隨著推理成本持續下降,AI將能夠應用於更多用途,這對於美國科技巨頭來說是“機會空間”。報導稱,AMD首席執行官也在週二的財報電話會議上稱讚DeepSeek。“我們認為其在模型上的創新及其演算法有利於AI的應用。”蘇姿豐表示,有新方法用更少的基礎設施實現(AI的)訓練和推理能力,其實是一件“好事”,因為這讓人們能夠繼續部署AI資源,並拓展AI的應用空間,讓其為更多人所用。 兩人是繼蘋果、微軟和Meta等公司高管之後,最新對DeepSeek所取得成就表示讚賞的科技企業高管。然而,一些國家對該應用程式保持謹慎。據韓聯社5日報導,因處理的資訊涉及機密較多,韓國外交部和產業通商資源部自行決定限制通過支援外網連接的電腦登錄DeepSeek平台。另據澳大利亞廣播公司等媒體報導,澳政府4日宣佈禁止在政府機構的電子裝置上使用DeepSeek,聲稱其“對澳政府技術(構成)不可接受的風險”。在宣佈這一禁令時,澳內政部長伯克強調,這一做法“與(特定)國家無關”,“重點是關注澳政府及其資產面臨的風險”。 中國外交部發言人此前在回應外界質疑中國應用軟體資料安全問題時曾表示,中國政府高度重視並依法保護資料隱私與安全,從來沒有也不會要求企業或個人以違反當地法律的方式為中國政府採集或提供位於外國境內的資料、資訊和情報。有關方面應當尊重市場經濟和公平競爭原則,為中國企業提供公平、透明、非歧視的營商環境。 (環球時報)